⏱️ Olvasási idő: kb. 45 perc
A nagy nyelvi modellek (LLM-ek) működése egyszerűen
1. Mi az LLM valójában?
A „Large Language Model” (LLM) kifejezĂ©s elsĹ‘re bonyolultan hangzik, de a lĂ©nyege meglepĹ‘en egyszerű: egy LLM szövegeket olvas, Ă©s megprĂłbálja kitalálni, mi következik legnagyobb valĂłszĂnűsĂ©ggel.
„A macska felugrott az ablak…”
a modell statisztikai alapon arra tippel, hogy a következĹ‘ szĂł valĂłszĂnűleg „párkányára” lesz, nem pedig „háztetĹ‘re”, Ă©s fĹ‘leg nem az „étterem”.
Ez a mĂłdszer — a következĹ‘ szĂł valĂłszĂnűsĂ©gĂ©nek becslĂ©se — minden nyelvi modell alapja. Egy szĂł beĂ©rkezĂ©se után a modell kiszámĂtja, hogy az adott kontextusban mely szavak jöhetnek szĂłba, Ă©s mindegyikhez egy valĂłszĂnűsĂ©get rendel. A legmagasabb Ă©rtĂ©kű szĂłt választja, Ă©s Ăgy halad tovább. Ezt a folyamatot hĂvjuk nyelvi predikciĂłnak.
De a „nagy” szĂł (Large) nem vĂ©letlen: ezek a modellek több száz milliárd szĂłnyi szöveget tanultak meg feldolgozni, Ă©s több tĂzmilliárd paramĂ©ter segĂtsĂ©gĂ©vel kĂ©pesek emlĂ©kezni, általánosĂtani Ă©s összefĂĽggĂ©seket felismerni. A paramĂ©terek itt olyan, mint a neurális hálĂłzat „emlĂ©kezete”: mindegyik finomĂtja, hogyan reagáljon a modell bizonyos mintákra.
MĂg a korábbi fejezetekben megismert perceptron vagy a konvolĂşciĂłs hálĂłzatok kĂ©peket elemeztek, az LLM ugyanazt az elvet alkalmazza a szövegre: a szavak közötti mintázatokat keresi. A kĂĽlönbsĂ©g csak az, hogy itt a „kĂ©ppontokat” nem pixelek, hanem tokenek — a szavak vagy szĂłrĂ©szek numerikus lekĂ©pezĂ©sei — jelentik.
A nyelvi modell nem „érti” a világot emberi értelemben. Nem tudja, mit jelent az „ablak”, csak azt, hogy milyen szavak szoktak mellette állni. De mivel rengeteg adatból tanul, a minta, amit felismer, gyakran lenyűgözően emberinek tűnik.
Ez a statisztikai mintafelismerĂ©s az, ami lehetĹ‘vĂ© teszi, hogy a modell törtĂ©neteket Ărjon, szöveget fordĂtson, vagy akár logikus Ă©rveket is Ă©pĂtsen. A következĹ‘ alfejezetben megnĂ©zzĂĽk, mibĹ‘l tanul ez a rendszer, Ă©s hogyan lesz a puszta szövegbĹ‘l „tudás”.
2. Miből tanul egy LLM?
A nyelvi modellek nem kĂ©zzel Ărt szabályokat követnek, hanem adatbĂłl tanulnak. Nem egy programozĂł mondja meg nekik, mit jelent egy szĂł, hanem maguk fedezik fel a jelentĂ©smintákat a hatalmas szövegkorpuszon belĂĽl.
Egy tipikus LLM több százmilliĂł dokumentumot, könyvet, weboldalt Ă©s programkĂłdot dolgoz fel. Ezeket a szövegeket elĹ‘ször megtisztĂtják (pl. reklámok, ismĂ©tlĹ‘dĂ©sek eltávolĂtása), majd feldarabolják aprĂł egysĂ©gekre, Ăşgynevezett tokenekre. A token lehet egy egĂ©sz szĂł (macskák), de gyakran csak egy szĂłtöredĂ©k (macska), Ăgy a modell a nyelv legkisebb Ă©pĂtĹ‘kockáibĂłl tanulja meg a jelentĂ©st.
A cél, hogy a modell megtanulja:
- mely szavak vagy kifejezések fordulnak elő gyakran együtt,
- milyen sorrendben jelennek meg egymás után,
- hogyan változik a szó jelentése attól függően, milyen kontextusban áll.
Ha egy modell sokszor látja a következő mondatokat:
- „A tanár megĂrta a dolgozatot.”
- „A tanulĂł megĂrta a házi feladatot.”
- „A diák leadta a dolgozatot.”
akkor „megtanulja”, hogy a „tanuló” Ă©s a „diák” hasonlĂł szavak, a „dolgozat” gyakran egyĂĽtt jár velĂĽk, Ă©s hogy az „Ărta” Ă©s a „leadta” hasonlĂł cselekvĂ©sek. Ez nem emberi megĂ©rtĂ©s, hanem statisztikai mintázatok felismerĂ©se.
A tanulás során a modell kapcsolatokat Ă©pĂt a szavak között – mint egy hatalmas, láthatatlan hálĂł, ahol a hasonlĂł jelentĂ©sű kifejezĂ©sek egymáshoz közel kerĂĽlnek. Ezt a folyamatot nevezzĂĽk nyelvi reprezentáciĂł tanulásnak. A hatalmas adatmennyisĂ©g miatt az LLM kĂ©pes általánosĂtani: ha egy eddig nem látott szĂłt vagy kifejezĂ©st olvas, gyakran el tudja találni a jelentĂ©sĂ©t pusztán a környezĹ‘ szavakbĂłl. Ez teszi lehetĹ‘vĂ©, hogy Ăşj, kreatĂv válaszokat adjon – nem ismĂ©tel, hanem mintázatokbĂłl jĂłsol.
3. Hogyan tanul egy nyelvi modell?
Eddig láttuk, hogy a neurális hálĂłzatok (pĂ©ldául a CNN) kĂ©pesek kĂ©pekbĹ‘l mintákat felismerni. De hogyan lehetsĂ©ges, hogy egy hasonlĂł rendszer szövegeket is „megĂ©rt” – mondatokat, kĂ©rdĂ©seket, vagy akár verseket Ăr? Ehhez elĹ‘ször meg kell Ă©rtenĂĽnk, hogyan tanul egy nyelvi modell.
3.1. A szavak számokká alakulnak
A számĂtĂłgĂ©p nem tudja, mi az, hogy „ablak” vagy „macska” – de tud számokkal dolgozni. EzĂ©rt a tanulás elsĹ‘ lĂ©pĂ©se az, hogy minden szĂłt, vagy szĂłtöredĂ©ket átalakĂtunk egy többdimenziĂłs számoszlopra, amit vektornak nevezĂĽnk. Ezt a folyamatot hĂvjuk embeddingnek (beágyazásnak).
A beágyazás (embedding) lényege, hogy a szavakat egy többdimenziós térbe helyezzük el úgy, hogy a hasonló jelentésű kifejezések egymáshoz közel kerüljenek. Ezt a modell statisztikai alapon, hatalmas szövegmennyiségen keresztül tanulja meg: megfigyeli, mely szavak fordulnak elő hasonló környezetben, és ezeknek hasonló vektorokat rendel.
A folyamat mögött bonyolult lineáris algebrai és optimalizációs módszerek állnak, amelyek részletes tárgyalása túlmutat ezen a kurzuson. Itt elég annyit tudni, hogy az embedding teszi lehetővé, hogy a gép számok formájában ismerje fel a nyelvi hasonlóságokat.
Ebben a térben a hasonló jelentésű szavak egymáshoz közel kerülnek: „király” közel van a „herceg”-hez, „kutya” közel van a „macská”-hoz, de messze a „felhőkarcoló”-tól. Így a modell számok formájában már érzékeli a nyelvi hasonlóságokat.
A modell nem azt látja, hogy „kutya” és „macska”, hanem két hasonló számvektort: (0.21, 0.87, 0.33, ...) és (0.25, 0.82, 0.36, ...). A közelségük alapján felismeri, hogy a két szó hasonló jelentésű.
3.2. Mintázatok keresése a kontextusban
Miután minden szó számokká alakult, a modell megpróbálja felismerni a mintákat: milyen szavak követik egymást, milyen kifejezések járnak együtt, és hogyan változik a jelentés a környezet (kontextus) függvényében.
A tanĂtás során a modell sok milliĂł mondatot lát, Ă©s minden alkalommal megprĂłbálja kitalálni a következĹ‘ szĂłt. Ha hibázik, a hiba nagysága (a loss) visszajut a hálĂłzatba, Ă©s a modell sĂşlyokat mĂłdosĂt, hogy legközelebb kisebb hibát kövessen el. Ez a folyamat neve: gradiens-csökkentĂ©ses tanulás (gradient descent).
ĂŤgy a modell lĂ©pĂ©srĹ‘l lĂ©pĂ©sre pontosĂtja a belsĹ‘ kapcsolatait, amĂg meg nem tanulja, milyen minták jellemzĹ‘ek az emberi nyelvre.
3.3. A „figyelem” mechanizmusa – mire érdemes figyelni?
A modern LLM-ek titkos fegyvere a Transformer-architektĂşra, amely lehetĹ‘vĂ© teszi, hogy a modell egyszerre lássa a teljes mondatot, Ă©s mĂ©rlegelje, melyik szĂł mennyire fontos. Ez a self-attention mechanizmus: a modell megtanulja, hogy a „nem” szĂł pĂ©ldául teljesen megfordĂthatja a mondat jelentĂ©sĂ©t.
A Transformer úgy tanul, mint egy diák, aki olvasás közben kiemeli a fontos szavakat a szövegben. Így nem minden szóra figyel egyformán, hanem arra, amelyik a mondat értelme szempontjából kulcsfontosságú.
3.4. A tanulás eredménye
A modell nem szabályokat tárol, hanem valĂłszĂnűsĂ©gi kapcsolatokat. Megtanulja, hogy a „macska” szĂł után gyakran jön az „ugrik”, vagy hogy „Szeged” gyakran szerepel „Juhász Gyula” mellett. EzekbĹ‘l a mintákbĂłl Ă©pĂĽl fel az, amit mi „tudásnak” Ă©rzĂ©kelĂĽnk.
A modell tehát nem „érti” a világot, de statisztikailag megtanulja a nyelv logikáját. És amikor szöveget generál, nem emlĂ©keibĹ‘l idĂ©z, hanem valĂłszĂnűsĂ©gek alapján jĂłsolja a következĹ‘ szĂłt.
Megjegyzés:
Amikor a ChatGPT-re vagy más nyelvi modellre rákĂ©rdezĂĽnk pĂ©ldául, hogy „Ki volt PetĹ‘fi Sándor?”, a válasz nem egy elĹ‘re tárolt mondat valahonnan az internet mĂ©lyĂ©rĹ‘l. A modell nem keres, Ă©s nem is idĂ©z szöveget, hanem valĂłs idĹ‘ben Ă©pĂti fel a választ, tokenrĹ‘l tokenre – azaz szĂł- vagy szĂłtöredĂ©k-szinten.
A gĂ©p nem „emlĂ©kszik” PetĹ‘fire, viszont tudja, hogy a tanult szövegekben a „PetĹ‘fi Sándor” nĂ©v gyakran egyĂĽtt fordult elĹ‘ olyan kifejezĂ©sekkel, mint „magyar költő”, „1848-as forradalom”, „Nemzeti dal” vagy „Szabadság, szerelem”. Ezeket a mintákat felismerve, a modell valĂłszĂnűsĂ©gi alapon dönti el, hogy a következĹ‘ szĂł vagy kifejezĂ©s mi legyen. PĂ©ldául Ăgy „gondolkodik” belĂĽl:
- „magyar költĹ‘ volt” → 91% valĂłszĂnűsĂ©ggel illik ide,
- „a forradalom egyik alakja” → 73%,
- „1848-ban élt” → 68%.
A modell tehát nem másolja a megtanult szövegeket, hanem a korábban megismert minták Ă©s szĂłkapcsolatok alapján Ăşjramondja a tartalmat. A mondat, amit látunk, Ăgy jön lĂ©tre:
„Petőfi Sándor magyar költő volt, az 1848-as forradalom egyik legismertebb alakja.”
Ez a mondat nem lĂ©tezett korábban, csak a modell valĂłszĂnűsĂ©gi döntĂ©seinek eredmĂ©nyekĂ©nt szĂĽletett meg. Vagyis az LLM nem szĂł szerinti ismĂ©tlĂ©sre kĂ©pes, hanem minták Ăşjrakombinálására Ă©s fogalmi általánosĂtásra. Emiatt tűnik Ăşgy, mintha „értené”, amirĹ‘l beszĂ©l – pedig valĂłjában csak statisztikailag jĂłl tippel.
4. Az instrukciĂł-tanĂtás (utasĂtás követĂ©s) – amikor a modell megtanul „engedelmeskedni”
A korai nyelvi modellek csak az interneten található szövegekből tanultak, és ezek alapján próbálták megjósolni, mi következik a szövegben. Nem értették, hogy egy kérdésre válaszolni kell — csak azt tudták, hogyan folytassanak egy szöveget a tanult minták szerint.
EzĂ©rt a legelsĹ‘ modellek gyakran furcsán viselkedtek: ha pĂ©ldául kĂ©rdĂ©st kaptak, válasz helyett gyakran több opciĂłt soroltak fel, mert az interneten is ilyen formában (kvĂzekben, fĂłrumokon, kĂ©rdĹ‘Ăvekben) találkoztak velĂĽk.
Kérdés: Hol született Juhász Gyula?
Válasz:- Kecskeméten
- Szegeden
- Szentesen
- Kiskunfélegyházán
Az elsĹ‘ GPT-modell 2018-ban jelent meg, Ă©s bár akkor mĂ©g alapvetĹ‘en szövegfolytatásra volt kĂ©pes, az Ă©vek során a tanĂtási mĂłdszer forradalmi változáson ment keresztĂĽl. A legfontosabb lĂ©pĂ©s az volt, amikor a fejlesztĹ‘k elkezdtĂ©k megtanĂtani a modelleket arra, hogy utasĂtásokat is Ă©rtelmezzenek Ă©s kövessenek. Ezt nevezzĂĽk instrukciĂł-tanĂtásnak (angolul: instruction tuning).
Kérdés: Hol született Juhász Gyula?
Válasz: Juhász Gyula Szegeden született.
Ebben a fázisban a modellt olyan adatokkal finomhangolják, amelyek valós emberi kérdés–válasz példákat tartalmaznak. Ezekből a példákból a modell megtanulja, hogy amikor egy kérdést lát, ne felsoroljon lehetőségeket, hanem fogalmazzon meg egy természetes választ.
Az instrukciĂł-tanĂtás tehát nem Ăşj tudást ad a modellnek, hanem megtanĂtja hogyan használja a meglĂ©vĹ‘ tudását a felhasználĂł kĂ©rĂ©sĂ©nek megfelelĹ‘en. EttĹ‘l váltak a modern LLM-ek (mint a ChatGPT, Gemini vagy Claude) segĂtĹ‘kĂ©sz, kontextusĂ©rzĂ©keny Ă©s emberközeli eszközökkĂ©.
A fejlesztĂ©s utolsĂł lĂ©pĂ©se gyakran a Reinforcement Learning from Human Feedback (RLHF) – azaz megerĹ‘sĂtĂ©ses tanulás emberi visszajelzĂ©ssel. Ebben az emberek több lehetsĂ©ges választ Ă©rtĂ©kelnek, a modell pedig megtanulja, melyik megfogalmazás „jobb”: pontosabb, udvariasabb vagy koherensebb.
Mit nyerĂĽnk ezzel?
- A válaszok pontosabbak és kontextusfüggőek lesznek,
- a modell felismeri a kĂ©rĂ©s hangnemĂ©t Ă©s stĂlusát,
- Ă©s megtanĂthatĂł arra is, hogy bizonyos tĂ©mákban (pĂ©ldául politika, erĹ‘szak) ne válaszoljon.
Az instrukciĂł-tanĂtás Ă©s az RLHF egyĂĽtt tettĂ©k lehetĹ‘vĂ©, hogy az LLM-ek a puszta szövegfolytatásbĂłl valĂłdi interaktĂv párbeszĂ©dre kĂ©pes rendszerekkĂ© váljanak.
Amikor egy nyelvi modell, pĂ©ldául a ChatGPT, választ generál, az nem egyetlen, tökĂ©letes mondatkĂ©nt szĂĽletik meg. A folyamat inkább többlĂ©pcsĹ‘s finomĂtás – a modell elĹ‘ször egy nyers, gyakran pontatlan vagy „buta” mondatváltozatot kĂ©szĂt, majd a belsĹ‘ rĂ©tegei Ă©s a valĂłszĂnűsĂ©gi sĂşlyok alapján fokozatosan javĂtja azt.
Ez a javĂtás nem emberi Ă©rtelemben vett „átgondolás”, hanem egy önkorrekciĂłs statisztikai folyamat: a modell minden egyes token (szĂł) után ĂşjraĂ©rtĂ©keli a korábbi szavakat, Ă©s ha Ăşgy „látja”, hogy az eddigi mondat nem illik jĂłl a kontextushoz, más irányba folytatja a gondolatot.
PĂ©ldául ha a modell elĹ‘ször Ăgy „kezdene”:
„PetĹ‘fi Sándor egy hĂres ember volt, aki valamikor rĂ©gen Ă©lt.”
– ezt tĂşl általánosnak Ă©rzĂ©keli, Ă©s a következĹ‘ lĂ©pĂ©sekben javĂtja:
„Petőfi Sándor magyar költő volt, az 1848-as forradalom egyik vezéralakja.”
Ez a folyamat a belsĹ‘ attention mechanizmusok Ă©s valĂłszĂnűsĂ©gi visszacsatolások rĂ©vĂ©n törtĂ©nik, amelyek a korábbi szavakat is ĂşjraĂ©rtĂ©kelik minden Ăşj szĂł hozzáadásakor. ĂŤgy jön lĂ©tre a „gondolkodás” illĂşziĂłja: a modell látszĂłlag átfogalmaz, valĂłjában azonban minden pillanatban Ăşjraszámolja, mi hangzik a legvalĂłszĂnűbben helyesnek.
5. Halucináció – amikor a modell „túl okosnak hiszi magát”
A nyelvi modell nem rendelkezik valĂłságtudattal. Nem tudja, mi igaz Ă©s mi hamis – csak azt, hogy milyen szavak szoktak egymás után következni. EzĂ©rt, ha egy kĂ©rdĂ©sre nem tudja a biztos választ, akkor is generál valamit, hiszen a feladata az, hogy folytassa a szöveget a legvalĂłszĂnűbb mĂłdon.
Kérdés: Mikor született Sherlock Holmes?
Válasz: 1854. január 6. – jól hangzik, csak épp Holmes sosem létezett.
Ez a jelensĂ©g az Ăşgynevezett halucináciĂł: amikor a modell logikusnak tűnĹ‘, de valĂłjában kitalált informáciĂłt ad. Nem hazudik, hiszen nincs szándĂ©ka – egyszerűen csak statisztikai mintákat folytat. Ha sok Ă©letrajzban szerepel a „szĂĽletett” szĂł Ă©s egy dátum, a modell ezt a mintát követi akkor is, ha a kĂ©rdĂ©s egy fiktĂv szemĂ©lyrĹ‘l szĂłl.
A halucináció tehát nem „hiba” a klasszikus értelemben, hanem a nyelvi jóslás természetes mellékhatása. Az LLM nem a valóságot ismeri, hanem a szövegek világát, és abban próbál következetes maradni.
- Mert a modell mindig folytatni akarja a szöveget – akkor is, ha nincs megbĂzhatĂł informáciĂłja.
- Mert a tanulás során nem azt tanulta meg, mi igaz, hanem azt, mi hangzik valĂłszĂnűnek.
- Mert a kontextus alapján próbál logikus maradni, még ha az adat hiányos is.
A halucináciĂłk gyakorisága csökkenthetĹ‘, ha a modellhez kĂĽlsĹ‘, valĂłs forrásokat kapcsolunk, pĂ©ldául adatbázisokat, tudásgráfokat vagy keresĹ‘motorokat – ezt nevezzĂĽk Retrieval Augmented Generation (RAG) megközelĂtĂ©snek. Ilyenkor a modell nem „kitalálja”, hanem „kinĂ©zi” az informáciĂłt megbĂzhatĂł helyekrĹ‘l.
VĂ©gsĹ‘ soron a felhasználóé a felelĹ‘ssĂ©g: minden generált tartalmat kritikusan Ă©s forráskritikával kell kezelni. A jĂł promptok, a szakmai ellenĹ‘rzĂ©s Ă©s az emberi felĂĽgyelet egyĂĽtt segĂtenek abban, hogy a modell kreativitása ne váljon tĂ©vedĂ©ssĂ©.
6. Válaszadás külső információk alapján
A modern nyelvi modellek már nemcsak válaszokat adnak, hanem hivatkozásokat Ă©s forrásokat is mellĂ©kelnek, amelyek segĂtenek az ellenĹ‘rzĂ©sben. Ez kĂĽlönösen fontos, mert a modell maga nem tudja, mi igaz – de ha hozzáfĂ©r megbĂzhatĂł kĂĽlsĹ‘ informáciĂłkhoz, akkor pontosabb Ă©s hitelesebb válaszokat tud adni.
A Retrieval Augmented Generation (röviden RAG) olyan megközelĂtĂ©s, ahol a nyelvi modell a saját „emlĂ©kezete” helyett kĂĽlsĹ‘ forrásokbĂłl merĂt adatot: dokumentumokbĂłl, adatbázisokbĂłl vagy akár egy webkeresĂ©sbĹ‘l. Ilyenkor a modell nem találgat, hanem kinyeri az informáciĂłt, majd termĂ©szetes nyelven megfogalmazza a választ.
- A felhasználó kérdést tesz fel a modellnek (pl. „Ki nyerte a legutóbbi Forma–1 futamot?”).
- A rendszer elĹ‘ször keresĂ©st vĂ©gez megbĂzhatĂł forrásokban (web, tudásbázis, dokumentumok).
- A megtalált szövegeket átadja a nyelvi modellnek.
- A modell ezekből összegzi és megfogalmazza a választ emberi nyelven.
ĂŤgy a nyelvi modell nem önállĂł tudásforrás, hanem egyfajta tolmács a felhasználĂł Ă©s az informáciĂł között. A RAG segĂtsĂ©gĂ©vel a válaszok nemcsak termĂ©szetesebbek, hanem ellenĹ‘rizhetĹ‘k Ă©s forrásalapĂşak is.
Ez a megközelĂtĂ©s kĂĽlönösen fontos olyan terĂĽleteken, ahol a pontosság Ă©s a megbĂzhatĂłság kulcsfontosságĂş – pĂ©ldául orvosi diagnosztika, jogi elemzĂ©s, tudományos kutatás vagy oktatási tartalomkĂ©szĂtĂ©s esetĂ©n. A modell tehát nem helyettesĂti a tudást, hanem hozzáfĂ©rĂ©st biztosĂt hozzá.
Miért hasznos ez?
- Friss Ă©s naprakĂ©sz informáciĂłkat használhat, nemcsak a betanĂtás idejĂ©ig ismert adatokat.
- Csökkenti a halucináciĂłkat, mert a válaszokat valĂłs forrásokra Ă©pĂti.
- LehetĹ‘vĂ© teszi, hogy a nyelvi modell megbĂzhatĂł segĂtĹ‘vĂ© váljon szakmai környezetekben is.
Ugyanakkor fontos tudni, hogy a RAG sem hibátlan megoldás. Bár a kĂĽlsĹ‘ források bevonása segĂt a pontosságban, a modell továbbra is generatĂv mĂłdon fogalmazza meg a választ. Ez azt jelenti, hogy az informáciĂłkat nem szĂł szerint idĂ©zi, hanem összegzi Ă©s átfogalmazza – ezĂ©rt a pontosság itt is a statisztikai mintákon mĂşlik, nem a „megĂ©rtĂ©sen”.
A modell idĹ‘nkĂ©nt mĂ©g Ăgy is kĂ©pes hamis hivatkozásokat vagy nem lĂ©tezĹ‘ linkeket generálni, mivel a linkek formátumát „ismeri”, de a valĂłs tartalmat nem ellenĹ‘rzi. EzĂ©rt a RAG-ot Ă©rdemes Ăşgy tekinteni, mint egy jĂł asszisztenst: segĂt, tájĂ©kozĂłdik, javasol – de nem helyettesĂti az emberi ellenĹ‘rzĂ©st.
MáskĂ©pp fogalmazva: a RAG nem „bulletproof pajzs” a hibák ellen, de jelentĹ‘sen növeli a válaszok megbĂzhatĂłságát. Olyan, mint egy tĂ©rkĂ©p – mutatja az utat, de a döntĂ©st továbbra is nekĂĽnk kell meghozni.
A jövĹ‘ nyelvi modelljei várhatĂłan egyre inkább ilyen hibrid mĂłdon működnek majd: az LLM lesz a „nyelvi agy”, amely a forrásokbĂłl szerzett tudást valĂłs idejű, Ă©rthetĹ‘ Ă©s releváns válaszokká alakĂtja.
7. Mi történik a háttérben? (A technikai alapok röviden)
A nagy nyelvi modellek működĂ©sĂ©nek motorja a Deep Learning – ugyanaz a neurális hálĂłzatos elv, amelyet már a perceptronoknál Ă©s a CNN-eknĂ©l megismertĂĽnk, csak Ăłriási lĂ©ptĂ©kben. MĂg egy perceptron nĂ©hány bemeneti jellel dolgozik, az LLM-ek már több százmilliárd szĂł közti kapcsolatot tanulnak meg.
A korábbi neurális hálókhoz hasonlóan itt is rétegek dolgoznak együtt – csakhogy nem tucatnyi, hanem akár 100–150 réteg, és mindegyik több millió paramétert (súlyt) tartalmaz. Ezek a paraméterek együtt határozzák meg, hogy a modell hogyan reagál egy adott szókapcsolatra vagy kérdésre.
A mai nyelvi modellek alapját a Transformer-architektĂşra adja, amely 2017-ben forradalmasĂtotta a termĂ©szetes nyelv feldolgozását. A Transformer Ăşjdonsága az volt, hogy kĂ©pes lett figyelmet osztani – vagyis egyszerre látja a teljes mondatot, Ă©s kĂ©pes felismerni, mely szavak hatnak egymás jelentĂ©sĂ©re. Ezt nevezzĂĽk attention mechanizmusnak, amely a hĂres mondatban Ăgy fogalmazĂłdott meg: “Attention is all you need.”
Az attention teszi lehetővé, hogy a modell megértse például, hogy a „nem” szó teljesen megváltoztatja egy mondat jelentését, vagy hogy a „Szegeden született” kifejezésben a „Szeged” a helyre utal, nem egy tulajdonságra. A Transformer tehát nem csak feldolgozza a szavakat, hanem összefüggéseket tanul meg közöttük.
Miután a hálĂłzat megtanulta az emberi nyelv mintázatait, egy utolsĂł tanĂtási lĂ©pĂ©s következik: a Reinforcement Learning from Human Feedback (RLHF), vagyis az emberi visszajelzĂ©ssel irányĂtott megerĹ‘sĂtĂ©ses tanulás. Itt a modell jutalmat kap, ha emberileg Ă©rtelmes, udvarias Ă©s hasznos választ ad, Ă©s „bĂĽntetĂ©st”, ha nem. ĂŤgy hangolĂłdik össze a „nyers” tudás a társadalmilag elfogadott viselkedĂ©ssel.
Nem szĂĽksĂ©ges megĂ©rtenĂĽnk a matematikai rĂ©szleteket – a lĂ©nyeg, hogy a modell a visszajelzĂ©sekbĹ‘l tanul. Az RLHF (Human Feedback) esetĂ©n emberek Ă©rtĂ©kelik a válaszokat, mĂg az RLAIF (AI Feedback) esetĂ©n ezt a szerepet egy másik mestersĂ©ges intelligencia veszi át. Ez segĂti a modelleket abban, hogy önállĂłbban, de továbbra is emberi Ă©rtĂ©kek mentĂ©n fejlĹ‘djenek.
Az LLM három alapja röviden:
- Deep Learning: a neurális hálók több milliárd paraméterrel tanulnak a nyelvi mintákból.
- Transformer: az attention mechanizmus felismeri, hogy mely szavak fontosak egymás számára.
- RLHF: az emberi visszajelzĂ©s finomhangolja a modell viselkedĂ©sĂ©t Ă©s stĂlusát.
Ez a három technológia együtt adja a modern nyelvi modellek – például a ChatGPT, Claude, Gemini vagy Mistral – működési alapját. Bár a matematika bonyolult, a koncepció egyszerű: egy óriási statisztikai rendszer, amely megtanulja, hogyan beszélünk, kérdezünk és gondolkodunk a nyelvben.
8. Hogyan használjuk jól az LLM-et?
Egy LLM csak annyira hasznos, amennyire okosan kĂ©rdezzĂĽk. A mestersĂ©ges intelligencia nem gondolatolvasĂł: a pontatlan, homályos vagy tĂşl általános kĂ©rdĂ©sek gyakran felszĂnes, fĂ©lreĂ©rthetĹ‘ válaszokat eredmĂ©nyeznek. Ezzel szemben a jĂłl strukturált, világos Ă©s cĂ©lzott kĂ©rdĂ©sekbĹ‘l a modell meglepĹ‘en pontos, logikus Ă©s használhatĂł válaszokat tud adni.
Az alábbi nĂ©hány egyszerű, de hatĂ©kony promptolási stratĂ©gia segĂt abban, hogy a modellbĹ‘l a lehetĹ‘ legtöbbet hozd ki:
- Légy konkrét: „Írj egy három bekezdéses összefoglalót a lineáris regresszióról, példával.”
- Adj szerepet a modellnek: „Magyarázd el úgy, mintha középiskolai tanár lennél.”
- Kérd a lépéseket: „Mutasd be lépésenként, hogyan működik a döntési fa.”
- Határozd meg a formátumot: „Add meg táblázatban az előnyöket és hátrányokat.”
- Kerüld a túl tág kérdéseket: „Mondj el mindent a fizikáról.” → kezelhetetlenül nagy feladat.
A jĂł prompt nem manipulálja a modellt – irányĂtja. Gondolj rá Ăşgy, mint egy beszĂ©lgetĂ©sre: ha te pontosan fogalmazol, a másik fĂ©l is pontosabban fog válaszolni.
Érdemes kĂsĂ©rletezni kĂĽlönbözĹ‘ megfogalmazásokkal, Ă©s megnĂ©zni, hogyan változik a válasz stĂlusa Ă©s mĂ©lysĂ©ge. A modellek Ă©rzĂ©kenyek a hangnemre Ă©s a kontextusra – tehát a „hogyan kĂ©rdezel”, legalább annyira számĂt, mint a „mit kĂ©rdezel”.
Próbáld ütköztetni a választ!
Ha kapsz egy választ, ne fogadd el azonnal: kĂ©rdezd meg tĹ‘le, „miĂ©rt gondolod Ăgy?”,
vagy „mi szól a másik nézőpont mellett?”.
Ez nemcsak pontosĂtja a választ, hanem segĂt megĂ©rteni a modell Ă©rvelĂ©si mintáját is.
Az ilyen „visszakérdezős” párbeszédek gyakran sokkal mélyebb megértést hoznak,
mint egyetlen kérdés–válasz interakció.
Ezek a stratégiák nem technikai trükkök, hanem kommunikációs elvek. Egy jól megfogalmazott prompt nem csupán pontos választ ad, hanem megmutatja, hogy az ember és a gép közötti párbeszéd is tanulható készség.
MĂ©g a legjobb prompt sem helyettesĂti a forráskritikát. A modell magabiztosan fogalmazhat tĂ©ves informáciĂłkat is – ezĂ©rt minden esetben ellenĹ‘rizd a választ megbĂzhatĂł forrásokkal.
9. Vajon mit tartogat a jövő?
A nyelvi modellek fejlĹ‘dĂ©se az utĂłbbi Ă©vekben minden kĂ©pzeletet felĂĽlmĂşlt. A kutatások egyre inkább abba az irányba haladnak, hogy a modellek ne csak válaszoljanak, hanem Ă©rtsĂ©k is a kontextust, az Ă©rzelmeket Ă©s a szándĂ©kot. A jövĹ‘ LLM-jei valĂłszĂnűleg mĂ©g inkább multimodálisak lesznek – nemcsak szöveggel, hanem hanggal, kĂ©ppel Ă©s videĂłval is kĂ©pesek kommunikálni.
Ezzel egyĂĽtt az etikai, jogi Ă©s társadalmi kĂ©rdĂ©sek is egyre fontosabbá válnak. Ahogy a mestersĂ©ges intelligencia egyre közelebb kerĂĽl az emberi kommunikáciĂłhoz, Ăşjra Ă©s Ăşjra fel kell tennĂĽnk a kĂ©rdĂ©st: ki irányĂt kit – mi az ember szerepe egy tanulĂł gĂ©pek által alakĂtott világban?
Egy dolog azonban biztos: a mesterséges intelligencia nem csupán technológiai forradalom, hanem egy új gondolkodásmód is, amelyben az ember és a gép együtt tanul, fejlődik és alkot.
Ellenőrző kérdések:
- Igaz az állĂtás, hogy egy nagy nyelvi modell (LLM) mindig tudja, mi igaz Ă©s mi hamis?
- Mit jelent az, hogy az LLM-ek „a következő szót jósolják meg”?
- Mi a különbség a „token” és a „szó” között a nyelvi modellekben?
- Igaz az állĂtás, hogy az LLM-ek szabályok alapján döntenek, melyik szĂł következik?
- Mi a „beágyazás” (embedding) célja a nyelvi modellek tanulásában?
- Melyik szavak kerülnek egymáshoz közel az embedding térben?
- Igaz az állĂtás, hogy a Transformer-architektĂşra kĂ©pes felismerni, mely szavak fontosak egymás szempontjábĂłl?
- Mit értünk a „self-attention” (önfigyelem) mechanizmus alatt?
- Mi a különbség az LLM és a hagyományos neurális háló között a tanult minták mennyiségét tekintve?
- Mit jelent az, hogy a modell „halucinál”?
- Igaz az állĂtás, hogy a halucináciĂłk mindig szándĂ©kos fĂ©lrevezetĂ©s eredmĂ©nyei?
- Mi a Retrieval Augmented Generation (RAG) célja?
- Igaz az állĂtás, hogy a RAG a modell belsĹ‘ tudását egĂ©szĂti ki kĂĽlsĹ‘ forrásokkal?
- Mit tanul meg a modell az instrukciĂł-tanĂtás (instruction tuning) során?
- Mi a Reinforcement Learning from Human Feedback (RLHF) fő célja?
Hivatkozások és források
- A tananyag ezen része a Nemzeti Innovációs Ügynökség
RRF-2.1.3-22-2023-0003pályázatának azonos elnevezĂ©sű kĂ©ziratának átirata. - A tananyagot a Szegedi Egyetem TTIK Informatikai IntĂ©zet megbĂzásábĂłl kĂ©szĂtette: MestersĂ©ges Intelligencia TanszĂ©k (2025/26. tanĂ©v) - Dr. KĹ‘rösi Gábor
- Ez a mű a Creative Commons Nevezd meg! – Ne add el! – Így add tovább! 4.0 Nemzetközi licenc feltételei szerint felhasználható.
- Az ábrák elkĂ©szĂtĂ©sĂ©hez a Flaticon ingyenes ikonjait használtuk, a licencfeltĂ©teleknek megfelelĹ‘en, oktatási cĂ©lra.